VIP STUDY сегодня – это учебный центр, репетиторы которого проводят консультации по написанию самостоятельных работ, таких как:
  • Дипломы
  • Курсовые
  • Рефераты
  • Отчеты по практике
  • Диссертации
Узнать цену

Составление плановых балансов мощности и выработки электроэнергии для различных периодов и для различных объектов

Внимание: Акция! Курсовая работа, Реферат или Отчет по практике за 10 рублей!
Только в текущем месяце у Вас есть шанс получить курсовую работу, реферат или отчет по практике за 10 рублей по вашим требованиям и методичке!
Все, что необходимо - это закрепить заявку (внести аванс) за консультацию по написанию предстоящей дипломной работе, ВКР или магистерской диссертации.
Нет ничего страшного, если дипломная работа, магистерская диссертация или диплом ВКР будет защищаться не в этом году.
Вы можете оформить заявку в рамках акции уже сегодня и как только получите задание на дипломную работу, сообщить нам об этом. Оплаченная сумма будет заморожена на необходимый вам период.
В бланке заказа в поле "Дополнительная информация" следует указать "Курсовая, реферат или отчет за 10 рублей"
Не упустите шанс сэкономить несколько тысяч рублей!
Подробности у специалистов нашей компании.
Код работы: W014316
Тема: Составление плановых балансов мощности и выработки электроэнергии для различных периодов и для различных объектов
Содержание
Оглавление


Оглавление2
Введение4
1.  методов 6
1.1  понятия  определения 6
1.2  модель6
1.3  решения  задач7
1.3.1  характеристика  решения  нелинейного 8
1.4  прямого 10
1.4.1  Хука-Дживса11
1.4.1.1  поиск11
1.4.1.2  по 12
1.4.1.3  алгоритма 13
1.4.2  комплексов14
1.4.3  случайного 15
1.4.4  покоординатного 17
1.5  методы18
1.5.1  метод  постоянным 18
1.5.2  скорейшего 20
1.5.3  проектирования 22
1.6  штрафных 24
1.7  полиномиальной 25
1.7.1  аппроксимация25
1.7.1.1Метод 26
1.8  Нелдера-Мида33
1.9  неопределенных  Лагранжа37
1.10  метода 40
2.  режима  сети  кВ41
3.  сети  критерию  потерь 52
	3.1  компенсирующих  на  на  10 52
3.2  мощности 62
3.3  сети  применением  и  с  сердечником70
4.  режима  после 77
5.  расчет80
Заключение89
Список  литературы90













Введение
     Актуальность. Оптимизация  энергосистем  электростанций  одним  разделов  и  управления  систем (ЭЭС). Имеются  документы  решению  ряда  задач  ЭЭС:
     - Составление  балансов  и  электроэнергии  различных  (от  до ) и  различных .
     - Определение  и  на , краткосрочную  оперативную  электроэнергии, мощности  резервов.
     - Расчет  тарифов  учетом  электроэнергии.
     - Определение  электроэнергии  зонам  нагрузки  по  года.
     - Определение  работы  электростанции (ТЭС).
     - Определение  использования  ресурсов  (ГЭС).
     - Построение  энергетических, экономических  стоимостных  для  станций  зон .
     - Регулирование  мощности  напряжения.
     - Выбор  размещение  мощности.
     Перечисленные  не  полным  задач, в  рассчитывается  ЭЭС, а  показывают  оптимизации .
     Для  решения  программной  любой  задачи  ее , которая  пять :
     - Содержательная  задачи .
     - Составление  модели.
     - Выбор  решений.
     - Разработка  решения.
     - Информационное .
     - Программная .
     Содержательная  задачи. На  этапе  изучение  процессов, происходящих  оптимизируемой , для  наиболее  характеристики  оптимизации, включая  иерархического  управления. Это  для  класса  оптимизации  формулирования  постановки .
     Каждая  задачи  оптимального  должна  как  двум :
     - задача  иметь  менее  возможных ;
     - должен  сформулирован  для  наилучшего .
     С  зрения  можно  следующие  оптимизации: управление  системы, управление  системы  управление  процессами.
     Математическое . Остановимся  на  положениях  электроэнергетических , которые  для  решения. При  модели  учитывать  важнейшие  системы. Необходимо  сформулировать  обоснованные , выбрать  представления , уровень  детализации  метод . В  исследованиях  используются  двух  типов: аналитические  регрессионные.
     Аналитические  включают  себя  материального  энергетического , соотношения  техническими  и , описывающие  свойства  поведение  на  технических .






1. Исследование методов оптимизации
1.1 Основные понятия и определения оптимизации

     Показатель, по  которого , является  решение , называется  оптимальности.[1] В  критерия  наиболее  принимается  критерий, представляющий  минимум  (финансовых, сырьевых, энергетических, трудовых) на  поставленной . При  или  величине  затрат  критерий  в  максимальной .
     В  в  от  поставленной  могут  и  критерии , в :
     критерий  электроснабжения;
     критерий  электроэнергии;
     критерий  отрицательного  на  среду (экологический ).
     Решение  задачи  в  следующие :
     сбор  информации (исходных );
     составление  модели, под  понимается  математическое  решаемой ;
     выбор  решения, определяемого  математической ;
     выполнение  вычислений, поручаемое, как , компьютеру;
     анализ  задачи.
     1.2 Математическая модель
     Математическая  - формализованное  описание  задачи.[1,2] Математическая  включает  себя:
     целевую ;
     ограничения;
     граничные .
     Целевая  представляет  математическую  критерия . При  оптимизационной  ищется  целевой , например  затраты  максимальная . Обобщенная  целевой  имеет  вид:
     
     
     
     где - искомые , значения  вычисляются  процессе  задачи;
     n  общее  переменных.
     Зависимость  переменными  целевой  (1.1) может  линейной  нелинейной.
     Ограничения  собой  технические, экономические, экологические , учитываемые  решении [1,2]. Ограничения  собой  между  , задаваемые  форме  или 
     
     
     
     Общее  ограничений  m.
     Граничные  устанавливают  изменения  переменных
     
     
      (1.3)
     
     где di и Di  соответственно  и  границы  изменения  хi.

1.3 Методы решения оптимизационных задач

     Для  подавляющего  оптимизационных  используются  математического , позволяющие  экстремальное  целевой  (1.1) при  между , устанавливаемых  (1.2), в  изменения , определяемом  условиями (1.3).
     Математическое  представляет , как , многократно  вычислительную , приводящую  искомому  решению.[2,3]
     Выбор  математического  для  оптимизационной  определяется  зависимостей  математической , характером  переменных, категорией  данных  количеством  оптимальности.
     
1.3.1 Общая характеристика методов решения задач нелинейного программирования

     Когда  функция (1.1) и  (1.2) нелинейны  для  точки  нельзя  очень  использовать  методы , тогда  решения  оптимизации  методы  программирования. Как , при  задач  нелинейного  используются  методы  применением [3,4,5,6].
     В  методы  программирования  быть  как  методы  методы  улучшения  решения. В  задачах  заранее  сказать, какое  шагов  нахождение  значения  заданной  точности. Кроме , в  нелинейного  выбор  шага  серьезную , от  решения  во  зависит  применения  или  метода. Разнообразие  решения  нелинейного  как  и  стремлением  оптимальное  за  число .
     Большинство методов нелинейного программирования используют идею движения в n-мерном пространстве в направлении оптимума. При этом из некоторого исходного или промежуточного состояния Uk осуществляется переход в следующее состояние Uk+1 изменением вектора Uk на величину DUk, называемую шагом , т.е. 
     
      (1.4)
     
     В ряде методов шаг ,т.е. его величина и направление определяется как некоторая функция состояния Uk
     
      (1.5)
     Следовательно, согласно (1.4) новое состояние Uk, получаемое в результате выполнения шага (1.5) может рассматриваться как функция исходного состояния Uk
     
      (1.6)
     
     В некоторых методах DUk обусловлен не только состоянием Uk, но и рядом предшествующих состояний 
     
      (1.7)
     
      (1.8)
     
     Естественно, что  поиска  (1.8) являются  общими  принципиально  обеспечить  высокую  к , т.к. используют  объем  о  поведения  функции.
     В  время  решения  задач  значительное  методов, однако  отдать  какому- либо . Выбор  определяется  объекта  решаемой  оптимизации.
     Методы  задач  программирования (условной  оптимизации) подразделяют  образом:
     методы  поиска;
     градиентные ;
     методы  функций;
     методы  аппроксимации.
     
     1.4 Методы прямого поиска

     Одними  методов  минимума  n-переменных  методы  поиска. Методы  поиска  методами, в  используются  значения [1,7].
     В  прямого  ограничения  в  виде. Необходимость  этих  связана  тем, что  инженерных  часто  сталкиваться  случаями, когда  функции  заданы  явном . Эти  строятся  интуитивных , не  строгой  и, следовательно, не  их . Несмотря  это, в  своей  простоты  методы  реализуются.
     Перед  применением  прямого  необходимо  ряд  по  задачи  решению, а 
     исключить  в  равенств;
     определить  допустимую .
     Простейший  исключения  в  равенств  в  его  одной  переменных  последующим  этой  путем  полученного  в , описывающие . При  следует , что  значений  переменных  в  в  ограничений - неравенств.
     Несмотря  то, что  является  простым  исключения  - равенств, не  оказывается  ее . В  случае  решается  численного  уравнения  зависимых  при  значениях  оптимизирующих .
     Для  начальной  точки  использовать  случайного , основная  которого  рассмотрена .
     После  процедуры  задачи  решению  приметить  из  условной [5,6]. Рассмотрим  прямого :
     модифицированный  Хука-Дживса; 
     метод ; 
     метод  поиска;
     метод  спуска.

1.4.1 Метод -Дживса

      Одним  методов  поиска  метод -Дживса[5,7], который  разработан  1961г, но  сих  является  эффективным  оригинальным. Метод -Дживса  несложной  поиска, относительной  вычислений  невысоким  требований  памяти . Это  из  алгоритмов, в  при  нового  поиска  информация, полученная  предыдущих . Процедура -Дживса  собой  исследующего  с  изменением  и  поиска  образцу.
      
      1.4.1.1 Исследующий поиск

      Для  исследующего  необходимо  величину , которая  быть  для  координатных  и  в  поиска. Исследующий  начинается  некоторой  точке. Если  целевой  в  точке  превышает  в  точке, то  поиска  как . В  случае  вернуться  предыдущую  и  шаг  противоположном  с  проверкой  целевой . После  всех n- координат  поиск . Полученную  результате  называют  точкой.
      
      1.4.1.2 Поиск по образцу
      Поиск  образцу [5,6] заключается  реализации  шага  полученной  точки  прямой, соединяющей  точку  предыдущей  точкой. Новая  образца  в  с 
      
      Xp(k+1)=X(k)+(X(k)-X(k-1)). 
      
      Как  движение  образцу  приводит  уменьшению  функции, точка Xp(k+1)фиксируется  качестве  базовой  и  проводится  поиск. Если  результате  точка  меньшим  целевой , чем  точке X(k), то  рассматривается  новая  точка X(k+1). С  стороны, если  поиск , необходимо  в  X(k) и  исследующий  с  выявления  направления . В  счете  ситуация, когда  поиск  приводит  успеху. В  случае  уменьшить  шага  введения  множителя  возобновить  поиск. Поиск , когда  шага  достаточно . Последовательность , получаемую  процессе  метода, можно  в  виде:
      X(k)  текущая  точка,
      X(k-1)- предыдущая  точка,
      Xp(k+1)- точка, построенная  движении  образцу,
      X(k+1)- следующая (новая) базовая .
      Приведенная  характеризует  структуру  по  Хука-Дживса.
      
      1.4.1.3 Описание алгоритма метода
      Шаг 1. Выбрать  базисную  b1 и  длиной hj для  переменной xj, 
     Шаг 2. Вычислить f(x) в  точке b1 с  получения  о  поведении  f(x). Функция f(x) в  точке b1 находится  образом:
     Вычисляется  функции f(b) в  точке b1.
     Каждая  по  изменяется  длины . Таким , мы  значение  f(b1+h1*e1), где e1-единичный  в  оси 1.
     Если  приводит  уменьшению  функции, то d1 заменяется  b1+h1*e1. В  случае  значение  f(b1-h1*e1), и  ее  уменьшилось, то b1 заменяем  b1-h1*e1.
     Если  один  проделанных  не  к  значения , то  b1 остается  и  изменения  направлении  х2, т.е. находится  функции f(b1+  и .д. Когда  рассмотрены  n-переменныx, мы  иметь  базисную  b2.
     Если b2=b1, т.е. уменьшение  не  достигнуто, то  повторяется  той  базисной  b1, но  уменьшенной  шага.
     Если b2  то  поиск  образцу.
     Шаг 3. При  по  используется , полученная  процессе , и  функции  поиском  направлении, заданном . Эта  производится  образом:
     Разумно  из  точки b2 в  b2-b1, поскольку  в  направлении  привел  уменьшению  функции. Поэтому  функцию  точке 
     
     P1=b1+2*(b2-b1). 
     
     В  случае
     
     Pi=bi+2*(b(i+1)-bi). 
     
     Затем  следует  вокруг  P1(Pi).
     Если  значение  шаге B,2 меньше  в  точке b2(в  случае b(i+1)), то  новую  точку b3  после  следует  шаг B,1  В  случае  производить  по  из  b2(b(i+1)), а  исследования  точке b2(b(i+1)).
     Шаг 4. Завершить  процесс, когда  шага (длины ) будет  до  малого .
     
     1.4.2 Метод комплексов
     Алгоритм [7]:
     Заданы  значений  переменных xiL,  i=1,2,...,  (размерность ), допустимая xo, параметр  a рекомендуется a  и  окончания ( d 
     Шаг 1. Построение  комплекса, состоящего  P допустимых  (рекомендуется P=2N). Для  точки p 1, 
     случайным  определить  xp;
     если xp  недопустимая , то  центр  xцт  найденных  и  xp  xp  (xцт -  повторять  до  пор, пока xp не  допустимой;
     если xp  допустимая , повторять  тех , пока p=P;
     вычислить W(xp) для p=0,1,...,P-1.
     Шаг 2. Отражение :
     выбрать xR, для  W(xR)  max  =  (решается  минимизации);
     найти  тяжести xцт  новую  xm  xцт +  (xцт - 
     если xm  допустимая  и W(xm)< уменьшить  два  расстояние  xm и  тяжести xцт, продолжать , пока W(xm)xiU(верхняя граница допускаемой области), то положить xim = xiU;
     если xm - недопустимая точка, то уменьшить в два раза расстояние до центра тяжести; продолжать до тех пор, пока xm не станет допустимой точкой.
     Шаг 4. Проверка условий окончания вычислений:
     положить
     
     
     и
     ;
     
     если
     
     
     и
     ,
     
     то вычисления прекратить; в противном случае перейти к шагу 2a.
     
     1.4.3 Методы случайного поиска

     Наиболее  процедурой  поиска [3,5] является  выборочная , заключающаяся  разыгрывании  ЭВМ  точек  координатами
     
     xi  xiL  (xiU  xiL),  (1.12)
     
     где ri  случайная , равномерно  на  [0,1].
     После  каждой  на  вычисляются  целевой , которые  с  значением, полученным  данному . Если  точка  лучшее , то  запоминается, в  - отбрасывается. Процесс  после  числа N или  исчерпанию  машинного . Для  90% доверительного  величиной ( (xiU  xiL), где 0<( для  xi совместный  поиск . При N=5, ( число  оценивается  2,3  что  возможность  использования .
     Значительного  эффективности  случайного  можно  путем  выборок  серии. При  наилучшая  в  серии  как  точка  серии, точки  уже  из  меньшей . Данная  получила  выборки  сжатием  поиска. Рассмотрим  подробно  алгоритм.
     Заданы  значений  переменных xiL,  i=1,2,...,  (размерность ), начальные  точка xo и  поиска D  =  -  количество Q, количество  в  P и  окончания ( Для  из , начиная  q  1, необходимо  следующие .
     Шаг 1. Для i  1,2,...,N вычислить
     
     xip  xiq-1  D 
     
     где ri  случайная , равномерно  на  [-0,5;0,5].
     Шаг 2.
     если xp  недопустимая  и p  P, то  шаг 1;
     если xp  допустимая , то xp и W(xp) и
     если p  P, то  шаг 1;
     если p  P, то  среди  допустимых xp точку  наименьшим  W(xp) и  ее xq.
     Шаг 3. Уменьшить  поиска, полагая D?xiq (?D?xiq-1.
     Шаг 4.
     Если q  Q, то  вычисления.
     В  случае  q=q+1 и  вычисления, начиная  шага 1.

1.4.4 Метод покоординатного спуска


     
     Рисунок 1.1  Метод  спуска
     
     Рассмотрим  двух . Ее  уровня  на .  а  лежит  точке (x1*,x2*). Простейшим  поиска  метод  спуска[3,4]. Из  А  поиск  вдоль  оси 1 и, таким , находим  В, в  касательная  линии  уровня  оси 1. Затем, производя  из  В  направлении  х2, получаем  С, производя  параллельно  х2, получаем  D, и .д. Таким , мы  к  точке. Очевидным  эту  можно  для  n переменных.
     Теоретически  метод  в  единственного  функции. Но  практике  оказывается  медленным. Поэтому  разработаны  сложные , использующие  информации  основании  полученных  функции.


1.5 Градиентные методы

     Как следует из названия, эти методы решения нелинейных оптимизационных задач используют понятие градиента функции[3,5,7]. Градиентом функции  называется вектор
     
      (1.14)
     
     где  - единичные вектора (орты).
     Величина этого вектора определяется по выражению
     
      (1.15)
     
     Из (1.14) и (1.15) видно, что , градиент  определяется, должна  дифференцируемой  всем n переменным.
     Физический  градиента  в , что  показывает  (1.14) и  (1.15) наибольшего  функции  рассматриваемой . Если  некоторой  , функция  этой  не  (не  и  убывает). Эта  соответствует  функции.
     
     1.5.1 Градиентный метод с постоянным шагом
     Сущность  методов  нелинейных  задач [1,5,7] поясним  случая  абсолютного  функции  переменных , иллюстрируемого .  этот  находится  точке  координатами 10 и 20.
     
     Рисунок 1.2  Иллюстрация  метода  постоянным 
     
     В  с  условиями (1.3), в  практических  задач  принимают  положительные  нулевые , областью  допустимых  переменных  первый  системы  х1 и 2. в  области  выберем  (нулевое) приближение - точку  координатами 10, х20. значение  функции  этой  составляет Z0. В  с  (1.15) вычислим  этой  величину  функции Z.
     Выполним  единичной  () в  убывание  Z. В  выполненного  получим  приближение - точки  координатами 11, х21. Значение  функции  этой  составляет Z1.
     Далее  процедура : последовательно  2-е, е  4-е  - точки  координатами 12, х22; х13, х23 и 14, х24. Значения  функции  этих  соответственно  Z2,  и Z4.
     Из .  видно, что  результате cлительного  последовательно  "спуск" к  функции Z. Вычислительная  заканчивается, когда  изменение  функции  предыдущем i-м  последующем (i+1)-м  оказывается  заданной  вычислений :



     Рассмотренная  процедура  название  метода  постоянным . В  методе  шаги  одинаковой  . Метод  прост. Основной  недостаток - большая  зацикливания  процесса  окрестности  функции Z. В  с .  вычислительный  зациклится  точками  координатами 13, х23 и 14, х24. При  в  искомого  следует  одну  этих .
     Для  более  результата  выбрать  меньшей . При  объем  (количество ) увеличится.
     Таким , точность  объем  в  методе  постоянным  определяются  этого .
     
     1.5.2 Метод скорейшего спуска
     Как  отмечено , при  длины  объем  (количество ) уменьшается, однако  и  определения  целевой . При  длины  точность , однако  вычислений (количество ) возрастает.
     Поэтому  о  рациональной  шага  градиентных  является  рода  задачей. Один  способов  оптимальной  шага  иллюстрируется  рис.  и  название  скорейшего  [1,7].


     Рисунок 1.3  Иллюстрация  скорейшего  (а) и  аппроксимация  функции  выбора  шага (б)
     
     В методе наискорейшего спуска желательно использовать рассмотренное свойство направления градиента. Поэтому, если мы находимся в точке хi на некотором шаге процесса оптимизации, то поиск минимума функции осуществляется вдоль направления -. Данный метод является итерационным. На шаге i точка минимума аппроксимируется точкой хi . Следующей аппроксимацией является точка
     
      (1.17)
     
     где ?i - значение ?, минимизирующее функцию.
     
     . (1.18)
     
     Значение ?i может быть найдено с помощью одного из методов одномерного поиска (например, методом квадратичной интерполяции).
     В приложении приведена программа, позволяющая реализовать метод наискорейшего спуска. В ней множитель Лагранжа обозначен через h. Вектор di является единичным.
     Для поиска минимума функции
     
      (1.19)
     
     в направлении di из точки xi используется метод квадратичной интерполяции.
     В точке , и мы выбираем длину шага ? такой, чтобы шаг "перекрыл " минимум функции ?(?). Производная
     
     . (1.20)
     
     Данный оператор for(i=0;i=ff[0] || g2>=0) проверяет условие "перекрытия" минимума, которое выполняется при выполнении либо одного, либо другого условия. Если минимум не попал в отрезок (0,?), то ? удваивается, и это повторяется столько раз, сколько необходимо для выполнения условия "перекрытия".
     Удостоверившись, что отрезок (0,?) содержит минимум, в качестве третьей точки возьмем точку ?/ 2. Минимальную точку сглаживающего квадратичного полинома находим в соответствии с соотношением
     
      (1.22)
     
     В  скорейшего , по  с  методом  постоянным , количество  меньше, точность  результата , отсутствует  вычислительного , однако  вычислений  одном  больше.

1.5.3 Метод проектирования градиента
     Рассмотренные  градиентные  предполагали  абсолютного  целевой  Z. При  в  модели  ограничений  уже  абсолютный, а  минимум  функции Z 
     Рассмотрим  из  отыскания  минимума  функции, получивший  метода  градиента.
     Для  алгоритма , что  одно  в  линейного 
     
                                                                                                                                              
     

     При  указанного  минимум  функции  искать  области , расположенной  одну  от  например  этой  (рис. 
     Начало  процедуры  же, как  в  методах:
     в  исходное (нулевое) приближение 10, х20;
     вычисляется  целевой  в  точке Z0;
     в  с  (1.15) в  точке  градиент  функции grad 
     из  точки  направлении  целевой  выполняется .
     
     Рисунок 1.4  Иллюстрация  проектирования 
     
     Выбор  шага  осуществляться  образом. Выберем  в  с  метода  спуска  получим  приближение - точку  координатами 11, х21. Вычисляется  целевой  в  точке Z1.
     Необходимо , принадлежит  точка  координатами 11, х21 области  допустимых  переменных. Для  проверяется  (1.23), в  подставляются  х11, х21:
     
                                                                                                                                              
     
     Если  неравенство , вычислительный  продолжается.
     Из  с  х11, х21 выполняется  шаг. В  этого  имеем  приближение - точку  координатами 12, х22. значение  функции  этой  Z2.
     Пусть  этой  неравенство  не . Следовательно, точка  координатами 12, х22 вышла  области  и  выполнить  в  область.
     Возврат  область  выполняется  образом. Из  с  х12, х22 опускается  на .е. конец  (х11, х21; х12, х22) проектируется  эту . В  получается  приближение - точка  координатами 13, х23, которая  области . В  точке  значение  функции Z3.
     Дальнейший  к  минимуму  функции  из  х13, х23. на  шаге  значение  функции  проверяется  нового  к  . Вычислительный  заканчивается  выполнении  (1.16).

1.6 Метод штрафных функций

     Рассмотрим  поиска  минимума  оптимальности W в , ограниченной  неравенств (3.16)-(3.17). Введение  критерия  по  штрафных  [3,5] производится  помощью  функции
     
     . (1.24)
     
     Обобщенным критерием оптимальности согласно методу штрафных функций является выражение
     
     T=W+RQ(x),
     
     где R  некоторое  число, называемое  штрафа.
     Рассматривается  неограниченная, монотонно  последовательность {Rk},  положительных . Для  элемента  последовательности  помощью  покоординатного  отыскивается  минимум  T. Пусть  минимум  при  (b*,R1).
     Вектор (b*,R1) используется  начальное  для  задачи  минимума  T где R2>R1 и .д. Таким , решается  задач  функций T(b*,Rk),  ..., причем  предыдущей  используется  качестве  приближения  поиска .
     
     
     Рисунок 1.5  Блок-схема  штрафных 
     
     1.7 Методы полиномиальной аппроксимации
     
     Согласно  Вейерштрасса  аппроксимации, непрерывную  в  интервале  аппроксимировать  достаточно  порядка [6]. Следовательно, если  унимодальна  найден , который  точно  аппроксимирует, то  точки  функции  оценить  вычисления  точки  полинома.
     Рассмотрим  вопросы:
     квадратичная ;
     кубическая ;
     квадратичные .

1.7.1 Квадратичная аппроксимация

     Используется несколько значений функции в определенных точках для аппроксимации функции обычным полиномом по крайней мере в небольшой области значений. Затем положение минимума функции аппроксимируется положением минимума полинома, поскольку последний вычислитель проще.
     Простейший случай основан на том факте, что функция, принимающая минимальное значение во внутренней точке интервала, должна быть по крайней мере квадратичной.
     Если целевая функция W(x) в точках x1, x2, x3 принимает соответствующие значения W1, W2, W3, то можно определить коэффициенты aо, a1, a2 таким образом, что значения квадратичной функции
     
     q(x) = ao + a1(x - x1) + a2(x - x1)(x - x2) (1.25)
     
     совпадут со значением W(x) в трех указанных точках. Вычислим q(x) в трех указанных точках (см. табл.1.1).
     
     Таблица 1.1 - Вычисление значений








     
     1.7.1.1Метод Пауэлла
     Если известны значения функции f(x) в трех разных точках ?, ?, ?? равные соответственно f?, f?, f?, то функция f(x) может быть аппроксимирована квадратичной функцией
     
     ?(x)=Ax2+Bx+C, (1.26)
     
     где А, В и С определяются из уравнений
     
     A?2+B?+C=f?,
     A?2+B?+C=f?,
     A?2+B?+C=f?. (1.27)
     
     После преобразований этих уравнений получаем 
     
     A=??????f???????f???????f???????
     B=????????f?????????f?????????f???????
     C=????????f?????????f?????????f??????? (1.28)
     
     где ?????????????????
     Ясно, что ?(x) будет иметь минимум в точке
     
     x=-B/2A,
     
     если А>0. Следовательно, можно аппроксимировать точку минимума функции f(x) значением
     
      (1.29)
     
     Этот метод может непосредственно применяться к функциям одной переменной. Он может быть очень полезен для выполнения линейного поиска в процедурах, описанных в теме №3. В этих процедурах требуется найти минимум функции f(x) в точках прямой x0+?d, где x0- заданная точка, а d определяет заданное направление. Значение функции f(x0+?d) на этой прямой является значениями функции одной переменной ?:
     
     ???? = f(x0+?d). (1.30)
     
     Идеи и результаты, изложенные выше, преобразуются в вычислительные процедуры, описанные далее. Предположим, что заданы унимодальная функция одной переменной f(x), начальная аппроксимация положения минимума и длинна шага D, является величиной того же порядка, что и расстояние от точки А до точки истинного минимума x*(условие, которое не всегда просто удовлетворить). Вычислительная процедура имеет следующие шаги:
     Шаг 1. x2 = x1 + D x.
     Шаг 2. Вычислить W(x1) и W(x2).
     Шаг 3.
     если W(x1) > W(x2), то x3 = x1 + 2 D x;
     если W(x1)< W(x2), то x3 = x1 - D x;
     W(x1) > W(x2),
     Шаг 4. Вычислить W(x3) и найти
     Wmin = min{ W(x1),W(x2), W(x3)},
     Xmin = xi, соответствующая Wmin.
     Шаг 5. По x1, x2, x3 вычислить x*, используя формулу для оценивания с помощью квадратической аппроксимации.
     Шаг 6. Проверка окончания
     если | Wmin - W(x*)| < W, то закончить поиск. В противном случае к шагу 7;
     если | Xmin - x*| < x, то закончить поиск. В противном случае к шагу 7.
     Шаг 7. Выбрать Xmin или x* и две точки по обе стороны от нее. Обозначить в естественном порядке и перейти к шагу 4.
     Заметим, что если точка Е задана слишком малой, то ?????????а также f?, f?, f? будут очень близко друг к другу и значение?? (1.29) может стать вообще недостижимыми. Чтобы преодолеть эту трудность, перепишем (1.29) для второй и последней интерполяции:
     
      (1.31)
     
1.7.2 Кубическая интерполяция

     Квадратичная интерполяция, которая рассматривалась в предыдущем разделе, называется методом Пауэлла и аппроксимирует функцию квадратным трехчленом. В этом разделе рассматривается метод Давидона [6,7], который гарантирует большую точность и аппроксимирует функцию кубическим полиномом.
     Для кубической интерполяции в этом методе используются значения функции и ее производной, вычисленных в двух точках.
     Рассмотрим задачу минимизации функции f(x) на прямой x0 + hd , то есть минимизацию функции
     
      (1.32)
     
     Предположим, что известные следующие значения:
     
      (1.33)
     
     Эту информацию можно использовать для построения кубического полинома a+bh+ch2+dh3, который будет аппроксимировать функцию ?(h) Если p=0 , то уравнения, которые определяют a, b, c, d имеют вид :
     
      (1.34)
     
     Следовательно, если r является точкой минимума кубического полинома,
     
      (1.35)
     
     Где
     
     
     Одно из значений этого выражения является минимумом. Друга производная равна 2c +6dh.
     Если мы выберем положительный знак, то при
     
     
     
     другая производная будет
     
      (1.36)
     
      (1.37)
     
     Выбор точки q зависит от нас. Если Gp >0 , то надо выбрать значение q положительным, то есть сделать шаг в направлении уменьшения функции ??(h) , в другом случае значения q надо выбирать отрицательным. Значение должно быть таким, чтобы интервал (0, ) включал в себя минимум. Это будет верным, если ??q >? p или Gp >0.
     Если ни одно из этих условий не исполняется, то мы удваиваем значения q , повторяя это в случае необходимости, пока указанный интервал не будет содержать в себе минимум.
     Давидон, Флетчер и Пауэлл предложили выбирать q следующим путем:
     
      (1.38)
     
     где ?m - оценка самого малого значения истинного минимума ??(h),
     ??- константа, значение которой обычно берут 2 или 1.
     
     1.7.3 Квадратичные функции
     Квадратичная функция [7,8]
     
      (1.39)
     
     где a - константа;
     b - постоянный вектор;
     G - положительно определенная симметричная матрица - имеет минимум в точке x* , где x* определяется следующим путем: 
     
      (1.40)
     
     откуда
     
     
     
     Любую функцию можно аппроксимировать в окрестности точки x0 функцией 
     
      (1.41)
     
     где G(x0) - матрица Гессе, вычисленная в точке x0.
     Аппроксимацией минимума функции f(x) может быть минимум функции ?(x). Если последний находится в точке xm, то 
     
      (1.42)
     
     откуда
     
     
     
     или
     
      (1.43)
     
     Таким образом точкой xи следующей аппроксимации минимума будет: 
     
      (1.44)
     
     или
     
      (1.45)
     
     где ?и - длина шага, определяется одномерным поиском в направлении G-1(xи)g(xи).
     
1.8 Метод Нелдера-Мида
     
     Метод Нелдера-Мида (поиск по деформируемому многограннику) является развитием симплексного метода Спендли, Хекста и Химсворта [7,8]. Множество (n+1)-й равноудаленной точки в n-мерном пространстве называется регулярным симплексом. Эта конфигурация рассматривается в методе Спендли, Хекста и Химсворта. Следовательно, в двумерном пространстве симплексом является равносторонний треугольник, а в трехмерном пространстве правильный тетраэдр. Идея метода состоит в сравнении значений функции в (n+1) вершинах симплекса и перемещении в направлении оптимальной точки с помощью итерационной процедуры. В симплексном методе, предложенном первоначально, регулярный симплекс использовался на каждом этапе. Нелдер и Мид предложили несколько модификаций этого метода, допускающих, чтобы симплексы были неправильными. В результате получился очень надежный метод прямого поиска, являющийся одним из самых эффективных, если n<=6.
     В методе Спендли, Хекста и Химсворта симплекс перемещается с помощью трех основных операций: отражения, растяжения и сжатия. Смысл этих операций станет понятным при рассмотрении шагов процедуры.
     Шаг 1. Найдем значения функции в вершинах симплекса:
     
     f1=f( x1), f2=f(x2) ... fn+1=f(xn+1) (1.46)
     
     Шаг 2. Найдем наибольшее значение функции fh, следующее за наибольшим значением функции fg , наименьшее значение функции fl и соответствующие им точки xh, xg и xl.
     Шаг 3. Найдем центр тяжести всех точек, за исключением точки xh. Пусть центром тяжести будет 
     
      (1.47)
     
     и вычислим f(x0)=f0.
     Шаг 4. Удобнее всего начать перемещение от точки xh. Отразив точку xh относительно точки x0, получим точку xr и найдем f(xr) = fr.
     Операция отражения иллюстрируется рис. 1.6.
     
     
     Рисунок 1.6 – Операция отражения
     
     Если ?>0 - коэффициент отражения, то положение точки xr определяется следующим образом:
     
     xr-x0=? (x0-xh), т.е.
     
     xr=(1+?)x0 -?xh. (1.48)
     
     Замечание.
     
     ?= |xr-x0| / |x0 –xh|.
     
     Шаг 5. Сравним значения функций fr и fl.
     Если frfl, но fr <=fgто xr является лучшей точкой по сравнению с другими двумя точками симплекса и мы заменяем точку xh на точку xr и, если сходимость не достигнута, возвращаемся на шаг 2, т.е. выполняем пункт 1,б, описанный выше.
     Если fr>fl и fr>fgто перейдем на шаг 6.
     Шаг 6. Сравним значения функций fr и fh.
     Если fr>f h, то переходим непосредственно к шагу сжатия 6,2.
     Если frf g из шага 5,2, приведенного выше. Затем переходим на шаг 6,2.
     В этом случае fr>f h, поэтому ясно, что мы переместились слишком далеко от точки xh к точке x0. Пытаемся исправить это, найдя точку xc (а затем fс) с помощью шага сжатия, показанного на рис. 1.8.
     Если fr>f h, то сразу переходим к шагу сжатия и находим точку xc из соотношения
     
     xc-x0=?(xh-x0), (1.50)
     
     где ?(0f h, то очевидно, что все наши попытки найти значение меньшее fh закончились неудачей, поэтому мы переходим на шаг 8.
     На этом шаге мы уменьшаем размерность симплекса делением пополам расстояния от каждой точки симплекса до xl-точки, определяющей наименьшее значение функции.
     
     
     Рисунок 1.8 - Шаг сжатия для fr>fh
     
     
     Рисунок 1.9 - Шаг сжатия для fr
Для получения полной версии работы нажмите на кнопку "Узнать цену"
Узнать цену Каталог работ

Похожие работы:

Отзывы

Спасибо, что так быстро и качественно помогли, как всегда протянул до последнего. Очень выручили. Дмитрий.

Далее
Узнать цену Вашем городе
Выбор города
Принимаем к оплате
Информация
Онлайн-оплата услуг

Наша Компания принимает платежи через Сбербанк Онлайн и терминалы моментальной оплаты (Элекснет, ОСМП и любые другие). Пункт меню терминалов «Электронная коммерция» подпункты: Яндекс-Деньги, Киви, WebMoney. Это самый оперативный способ совершения платежей. Срок зачисления платежей от 5 до 15 минут.

Сезон скидок -20%!

Мы рады сообщить, что до конца текущего месяца действует скидка 20% по промокоду Скидка20%